第二点是保护机密性,禁止在未发表的手稿或同行评审过程中使用生成式人工智能。此外,存在一个强有力的共识:人工智能不能被列为科学作者,因为它无法为错误、虚假结果或研究带来的影响承担伦理或法律责任。人类内容作为差异化价值 专家们一致认为,生态系统正在朝着两个同时发生的主要动态发展。他们指出,辩论应转向创作过程,评估技术是否增加了价值或侵蚀了原创性、伦理和责任。可信度仍然与人类因素紧密相连 各种研究表明,将内容识别为人工智能生成并不会降低对人类文本的偏好,尤其是在处理复杂、敏感或解释性信息时。这些缺点不是技术性的,而是结构性的,它们影响内容的感知,特别是在信息、意见或专业知识等敏感领域。与此同时,亚历山大·洛佩斯·博鲁尔(UOC信息与传播研究中心的教授)强调,人类作者身份允许融入背景、价值观、叙事意图和受众适应的层次,这些元素很难通过自动生成来复制。搜索引擎、算法和新价值标准 在合成内容饱和的情况下,搜索引擎和数字平台已开始调整其算法,以优先考虑EEAT(经验、专业知识、权威性和可信度)等标准,这些标准有利于由具有可验证履历的个人创建或签署的内容。这一调整不仅基于技术标准,也源于明确的社会需求。目前,在自动化饱和的环境中,人类因素重新获得了象征性和社会价值。人工智能被用于实用任务、摘要或快速查询,但可信度仍与人类作者身份相关联。在此背景下,“人类制作”、“人工智能辅助”或“人工智能创建”等标签的含义可能会随着时间的推移而改变。一方面,完全接受人工智能用于快速、经济地生产内容。另一方面,将无人工智能支持创建的内容视为差异化质量的标志,特别是在信任至关重要的领域。Lalueza指出,这种区分将取决于用户的偏好,而López Borrull提出了中间模式,如“专家监督”标签,让人工智能作为工具而非替代品。透明度、感知和识别的局限性 尽管对透明度的要求很高,但人们识别合成内容的能力仍然有限。根据皮尤研究中心的调查,76%的成年人认为能够识别内容是由人还是人工智能创建的非常重要。这一事件引发了即时批评,并重新引发了关于在信息内容生产中使用人工智能的界限、风险和责任的辩论。对于UOC信息与传播研究中心的教授Ferran Lalueza来说,这类错误并非偶然,而是代表了更大的现象:区分人类和合成内容的难度日益增加,随着技术的进步,这条界限将继续模糊。广泛使用,信任碎片化 人工智能的采用很广泛,但并未伴随同等水平的信任。在电子游戏行业,“非生成式人工智能”印章开始成为基准。这些标签旨在在自动化生产主导的生态系统中区分人类内容,并响应新兴的看法:人类因素开始与质量、伦理和情感联系相关联,而非机械效率。科学为人工智能作者身份设定明确界限 在学术界,反应更为明确。皮尤研究中心强化了这一诊断:50%的人表示他们比更担忧,53%的人担心人类创造能力的逐渐丧失。技术能力与结构性局限 从学术角度来看,Lalueza强调,人工智能缺乏建立社会信任的基本要素:真实性、可追溯性、伦理责任、可验证的承诺和真正的同理心。第一点是透明度的要求,强制声明在哪些阶段使用了人工智能(翻译、校对、辅助分析)。墨尔本商学院与KPMG合作在47个国家进行的一项国际报告显示,66%的人口习惯性地使用人工智能,但只有46%对其使用表示完全信任。这一差距的解释是,尽管人工智能被认为在数据处理方面有效,但人们对安全性、社会影响、伦理使用和长期后果仍存在相关疑虑。从新闻业到科学,对可验证作者身份的需求日益增长
人工智能与信任:数字时代的作者界限
本文探讨了人工智能在内容创作中日益增长的作用以及保护人类作者身份的挑战。专家指出,人们对信息的信任仍与人类因素相关联,强调了透明度和伦理责任的重要性。在数字空间被合成内容饱和的情况下,人类内容成为质量和可信度的关键差异化因素。